任正非、孟晚舟接连发声,华为加码算力布局,自研AI芯片获新突破

您所在的位置:网站首页 算力 华为 50亿 任正非、孟晚舟接连发声,华为加码算力布局,自研AI芯片获新突破

任正非、孟晚舟接连发声,华为加码算力布局,自研AI芯片获新突破

2024-07-13 17:07| 来源: 网络整理| 查看: 265

她强调,华为将改变传统的服务器堆叠模式,以系统架构创新的思路,着力打造AI集群,实现算力、运力、存力的一体化设计,突破算力瓶颈。

“华为支持大模型在智能化时代的‘百花齐放’,努力做好‘百花园’的黑土地。我们支持每个组织使用自己的数据训练出自己的大模型,让每个行业用自己的专业知识发展出自己的行业大模型。”

此外,华为ICT基础设施业务管理委员会主任、企业BG总裁汪涛也在本次大会上发布了全新架构的昇腾AI计算集群Atlas 900 SuperCluster。据了解,该AI集群支持超万亿参数的大模型训练,采用全新的智算交换机以及超节点架构。

“我们的产品如果不够先进,就不会拿出来卖。卖不了高价,我也养不活队伍。”在今天所曝光的任正非访谈中,任正非提到目前华为AI集群能力已经不弱于美国。“华为现在的AI集群已支持16000板卡,将来的一个超节点集群可管理几十万板卡。支持超高速互联、超高效的液冷散热、瞬时爆发式供电,达到系统高可用。”

整体来看,华为在打造算力基础设施上依旧强调自主可控,涵盖从硬件、架构、框架、应用、开发运维工具等全产业链条。

在处理器方面,华为推出了面向通用计算的鲲鹏系列,面向AI计算的昇腾系列。在架构方面,华为推出了自研达芬奇架构。在软件上,华为推出了openEuler开源OS以及配套的数据库、中间件。

华为自研AI芯片迎来重大突破

大模型技术发展如火如荼,AI算力受到格外的关注。最新进展显示,伴随着麒麟芯片的回归,华为在自研AI芯片也迎来重大突破。

目前,不论是海外厂商OpenAI、谷歌,还是国内厂商百度、腾讯、阿里巴巴等,所有的大模型厂商都极度依赖英伟达AI芯片进行训练。OpenAI联合创始人曾感慨到“谁将获得多少英伟达H100,何时获得H100,都是硅谷中最热门的话题。”

据了解,目前英伟达AI芯片主要包括A100、H100(性能比A100提高了4.5倍),A800和H800则是数据传输速度相对较慢的中国特供版。有报道显示,中国的互联网巨头百度、阿里巴巴以及字节跳动等公司今年向英伟达下达的交付订单金额达到10亿美元,总共采购约10万张H800芯片,明年交付的AI芯片价值更是达到40亿美元。

所以,如何突破英伟达的AI芯片统治、提高自主可控能力成为国内厂商关注的焦点。随着麒麟芯片的回归,华为自研昇腾AI芯片也或已迎来秘密更新。

前不久,科大讯飞最新推出的星火一体机,搭载的是华为鲲鹏CPU+昇腾GPU,支持从百亿到千亿等不同规模的大模型训练。据媒体报道,星火一体机搭载了华为昇腾910B ,这款芯片华为尚未对外公布,但在性能上应该比4年前发布的昇腾910有较大提升。

一份网上流出的专家调研报告显示,华为近期发布的910B芯片,与上一代的区别是FP32的性能提升。910B将八个NPU模组互联互通,同时每个NPU模组提供了56GB的HCCS的双向带宽。

在2023年亚布力中国企业家论坛第十九届夏季高峰会上,科大讯飞创始人、董事长刘庆峰透露称,中国在人工智能领域的算法没有问题,但算力似乎始终被英伟达按住。英伟达的A100是目前世界上最强的GPU,可以支持最复杂的人工智能模型。华为对此高度重视,任正非派三个联席主席到科大讯飞做专班工作。

不过,也有业内人士指出华为算力做到对标英伟达不算难事,但难的是生态建设。据了解,英伟达有较为成熟的CUDA生态,使得利用GPU来训练神经网络等高算力模型的难度大大降低,所以开发者对之依赖非常的深。“虽然AMD算力和显存都做得不错,但是没人用,就是因为生态做得不好。”

有相关AI开发者指出,如果模型适配昇腾生态,需要把模型转到华为AI计算框架Mindspore昇思,需要耗费大量的时间和人力成本,虽然昇腾可以适配其他AI框架,但使用体验不太好。返回搜狐,查看更多



【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3